Segundo teorema de Shannon

En teoría de la información, el segundo teorema de Shannon denominado también de «teorema de codificación de canal», o simplemente teorema de Shannon, es un teorema, matemático enunciado por Claude Shannon , que muestra que es posible transmitir datos discretos (información digital) casi sin errores sobre un mismo canal ruidoso, a un régimen máximo computable. Se le conoce simplemente como «teorema de Shannon» (a pesar de que es el segundo) puesto que este teorema conjuntamente con la obra de Claude Shannon sobre la teoría de la información, tuvieron una importancia fundamental en la teoría de la información, ofreciendo anchas aplicaciones en los dominios de las telecomunicaciones y del almacenamiento de información.[1]

El límite de Shannon o la capacidad de Shannon de un canal de comunicaciones es la velocidad teórica máxima de transferencia de información del canal, para un nivel de ruido determinado, que es el máximo fijado en la cantidad de símbolos por segundo que pueden ser transferidos a través de esta conexión con ruido. Este enunciado publicado por Claude Shannon el 1948 se basó sobre trabajos anteriores de Harry Nyquist y Ralph Hartley. La primera prueba rigurosa fue establecida por Amiel Feinstein el 1954.[1]

  1. a b Claude Shannon (July 1948). «A Mathematical Theory of Communication». Bell Labs Technical Journal. .

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search